1. Du comptage à l’estimation : naissance de l’échantillonnage moderne
À la fin du XIXe siècle, avec l’essor de la statistique industrielle (qualité des produits, contrôle qualité) et démographique, on commence à utiliser des échantillons pour éviter des mesures trop coûteuses ou trop longues.
On invente des méthodes pour tirer au hasard un petit groupe dans une population, dans le but de réaliser des estimations sur le tout.
2. XXe siècle : vers une science de l’échantillonnage
Au début du XXe siècle, les statisticiens comme Ronald Fisher, Jerzy Neyman et Egon Pearson développent la théorie de l’estimation, les tests statistiques et les intervalles de confiance.
Ils formalisent la notion de fluctuation d’échantillonnage : même avec un tirage aléatoire, les résultats peuvent varier légèrement d’un échantillon à l’autre.
Les applications se multiplient : sondages politiques, études médicales, tests produits, etc.
3. Aujourd’hui : du big data à la simulation
Les ordinateurs permettent aujourd’hui de simuler des milliers d’échantillons en un clin d’œil, avec Python ou un tableur.
Les élèves peuvent expérimenter eux-mêmes la loi des grands nombres et observer la stabilité des fréquences quand la taille de l’échantillon augmente.
Source : https://lesmanuelslibres.region-academique-idf.frTélécharger le manuel : https://forge.apps.education.fr/drane-ile-de-france/les-manuels-libres/mathe-matiques-seconde ou directement le fichier ZIPSous réserve des droits de propriété intellectuelle de tiers, les contenus de ce site sont proposés dans le cadre du droit Français sous licence CC BY-NC-SA 4.0 